倒反天罡了朋友!

Cursor新模型不仅性能超越Claude,而且价格更是直接“脚踝斩”(都不说腰斩了)。



众所周知,Cursor作为模型提供商,早期还靠供应Claude模型狠狠吸了一波粉。

结果现在,它自己搞出了一款编程模型,而且转身就把Claude拉下马了——

其最新编程模型Composer 2,不仅能力超越Claude Opus 4.6,关键是价格降了非常多。

就这么说吧,别人降价是“腰斩”,它这直接是“脚踝斩”



那么问题来了,Cursor凭啥能在大家都“涨价”的时候把价格打下去呢?

(注:随着“龙虾”爆火,全球大模型Token消耗量呈指数级增长,所以从年初开始,国内外云厂商和大模型公司都在集体涨价。)

答案,Cursor也随之公布了——

一种新的强化学习方法

比Opus 4.6更强,价格还down down down!

先说目前已经在Cursor上线的Composer 2

从名字英译“编曲家”你就能猜出来了,这款模型主打的是“编程家”(bushi。

鉴于“龙虾”爆火后编程消耗的Token用量一路激增,所以Cursor当下只有一个目标——

性价比、性价比、还是性价比。



何谓性价比?自然是“兼顾智能与成本的最优组合”。

能力方面,Cursor表示:

比如在衡量智能体终端操作能力的Terminal-Bench 2.0上,其水平目前已经跃居GPT-5.4和Claude Opus 4.6之间。



而且从Composer模型的迭代来看,其进化速度正不断加快。



定价方面,标准版Composer 2的输入价格为0.5美元/百万tokens(约合人民币3.5元)、输出价格为2.5美元/百万tokens(约合人民币17.2元)。

你瞅,和Claude Opus 4.6相比,几乎真到了“脚踝”的程度。



与此同时,Cursor还推出了一个“智能水平相同但速度更快的变体”——Composer 2 Fast

这款默认模型的定价为,每百万输入tokens 1.5美元(约合人民币10.3元)、每百万输出tokens 7.5美元(约合人民币51.7元)。

和Claude Opus 4.6相比,它不仅延续了价格优势,而且速度更是一骑绝尘。

而据Cursor透露,它之所以能在性能和价格之间取得平衡,核心还是靠引入了一种新的强化学习方法

划重点,该方法不是推理技巧,而是实实在在训练出来的能力。



引入“做笔记”强化学习方法

如果用一句话来总结这种新方法,那便是:

让模型学会“自己给自己做会议纪要”,从而把原本记不住的超长任务,一步步接着干下去。

Cursor的原话如下:



虽然这种名为“自我总结的强化学习方法”听起来有点拗口,但思路其实很清晰。

它核心解决的问题是——

如今大多数AI编程助手都很能干活了,但一旦任务变长、变复杂,就会开始不停掉链子。

这背后的原因呢,大家也都很清楚:上下文装不下

一个复杂工程任务动辄就是上万行代码、上百步操作,而模型的上下文窗口总是有限的,所以很多任务根本跑不到终点。

而为了突破上下文瓶颈,目前业界围绕“压缩”有两种主流解法:

又或者一些比较新的探索尝试——在潜在空间中压缩,将上下文压缩成向量而非文本(这种方法虽然比文本压缩慢但准确率更高)。

但不管是哪种,初步看下来都不够靠谱,它们都有可能导致模型遗忘上下文中的关键信息,从而在推进长时间运行的任务时降低其效果。

换言之,任务越长,模型越容易跑偏

而Cursor的解法是——首先总结很重要,其次把这种总结能力内化成模型自己的能力也很重要。

所以他们给自家模型加了一套“self-summary(自我总结)”的机制:

模型干活干到一半,不是被动压缩,而是主动停下来给自己写一段“阶段总结”,俗称“做笔记”。

具体流程大致如下:

1、Composer基于提示词持续生成,直到达到固定的token长度触发点。
2、插入一个合成查询,要求模型总结当前上下文。
3、给模型提供一定的草稿思考空间,让它构思最佳总结,然后生成压缩后的上下文。
4、Composer使用压缩后的上下文回到步骤1;该上下文包含总结以及对话状态(规划状态、剩余任务、之前总结的次数等) 。



这里面比较关键的一点是,模型的自我总结能力不是推理技巧,而是训练出来的

在强化学习过程中,这种总结能力会被算进奖励里:

结果就是,模型慢慢搞清了:什么信息值得留下,什么可以丢掉。

具体效果可以看和传统方法的对比。

在一组高难度软件工程任务上,“传统摘要法”光是总结提示词就要写几千个tokens,而且压缩后的结果也不短,平均需要5000+tokens。

而Composer的提示词非常简单,基本就一句话“Please summarize the conversation”,且压缩后的输出平均只有1000个tokens。

在同样的任务上,后者token用量只有传统方法的1/5,而且压缩带来的错误直接减少约50%

换句话说,压缩得更狠,但信息更关键。



更有意思的是,它真能解决长链条任务。

Cursor拿出了一道难倒一众模型的经典难题——把Doom游戏跑在MIPS架构上

由于需要模型自己改代码、编译调试、反复试错……所以很多模型到后来基本都直接卡死了。

但Composer在经过170轮交互后,找到了精确的解法,并在过程中将10w+tokens总结压缩到了1000个。



总之,一系列内部测试表明:

而且前面不是说了Cursor节奏很快,这不,Cursor研究员也已经开始放出Composer 3的消息了。



只能说发展到现在,Cursor以后也是有双重身份的“人”了。其CEO表示:



就是不知道能不能等一个开源?反正抱抱脸联创兼CEO已经去帮大家求了(抱拳jpg)。